guardar rencor (hacia) - definitie. Wat is guardar rencor (hacia)
DICLIB.COM
AI-gebaseerde taaltools
Voer een woord of zin in in een taal naar keuze 👆
Taal:     

Vertaling en analyse van woorden door kunstmatige intelligentie

Op deze pagina kunt u een gedetailleerde analyse krijgen van een woord of zin, geproduceerd met behulp van de beste kunstmatige intelligentietechnologie tot nu toe:

  • hoe het woord wordt gebruikt
  • gebruiksfrequentie
  • het wordt vaker gebruikt in mondelinge of schriftelijke toespraken
  • opties voor woordvertaling
  • Gebruiksvoorbeelden (meerdere zinnen met vertaling)
  • etymologie

Wat (wie) is guardar rencor (hacia) - definitie

Backpropagation; Retropropagación; Propagacion hacia atras; Retropropagacion; Propagación hacia atras; Propagacion hacia atrás
  • centro
  • Diagrama de un perceptrón con cinco señales de entrada.

Propagación hacia atrás         
En aprendizaje de máquina, la propagación hacia atrás de errores o retropropagación (del inglés backpropagation) es un algoritmo de aprendizaje supervisado utilizado para entrenar redes neuronales prealimentadas. Dado que es un método de cálculo del gradiente el algoritmo generalmente se puede usar en otros tipos de redes neuronales artificiales y en general para funciones.
Retrocompatibilidad         
  • Consola Atari 7800, retrocompatible con Atari 2600.
En informática, la retrocompatibilidad, compatibilidad hacia atrás o compatibilidad regresiva (del inglés backward compatibility) es un concepto que, referido al software, indica la capacidad de una aplicación informática para utilizar datos creados con o pensados para versiones anteriores de ella misma, bien permitiendo abrirlos o incluso guardarlos con compatibilidad. El término también hace referencia a la capacidad de un sistema de permitir la ejecución o el uso de versiones del software anteriores a la actual.
Pasos hacia una ecología de la mente         
LIBRO DE GREGORY BATESON
Pasos hacia una ecologia de la mente
Pasos hacia una ecología de la mente es una colección de documentos cortos de Gregory Bateson acerca de su larga y polifacética carrera. Incluye ensayos sobre antropología, cibernética, psiquiatría y epistemología.

Wikipedia

Propagación hacia atrás

En aprendizaje de máquina, la propagación hacia atrás de errores o retropropagación (del inglés backpropagation) es un algoritmo de aprendizaje supervisado utilizado para entrenar redes neuronales prealimentadas. Dado que es un método de cálculo del gradiente el algoritmo generalmente se puede usar en otros tipos de redes neuronales artificiales y en general para funciones. [Nota 1]

El método emplea un ciclo de propagación–adaptación de dos fases, en resumen permite que la información del costo fluya hacia atrás a través de la red para calcular el gradiente.[1]​ Una vez que se ha aplicado un patrón a la entrada de la red como estímulo, este se propaga desde la primera capa a través de las capas siguientes de la red, hasta generar una salida. La señal de salida se compara con la salida deseada y se calcula una señal de error para cada una de las salidas. Las salidas de error entonces se propagan hacia atrás, partiendo de la capa de salida, hacia todas las neuronas de la capa oculta que contribuyen directamente a la salida. Sin embargo las neuronas de la capa oculta solo reciben una fracción de la señal total del error, basándose aproximadamente en la contribución relativa que haya aportado cada neurona a la salida original. Este proceso se repite, capa por capa, hasta que todas las neuronas de la red hayan recibido una señal de error que describa su contribución relativa al error total.

La importancia de este proceso consiste en que, a medida que se entrena la red, las neuronas de las capas intermedias se organizan a sí mismas de tal modo que las distintas neuronas aprenden a reconocer distintas características del espacio total de entrada. Después del entrenamiento, cuando se les presente un patrón arbitrario de entrada que contenga ruido o que esté incompleto, las neuronas de la capa oculta de la red responderán con una salida activa si la nueva entrada contiene un patrón que se asemeje a aquella característica que las neuronas individuales hayan aprendido a reconocer durante su entrenamiento.

Wat is Propagación hacia atrás - definition